Wie würde sich unsere Wahrnehmung von KI verändern, wenn wir sie strikt mit Fachbegriffen der Informatik beschrieben?

0
0
0

Liebe Forscher*innen,

Welchen Einfluss hätte es auf das gesellschaftliche Verständnis gegenüber der künstlichen Intelligenz, wenn deren algorithmische Operationen nicht mit (neuro-)psychologischen Begriffen sondern mit Fachbegriffen aus der Informatik beschrieben und benannt würden? Also anstelle von "denken" oder "Lernprozesse" würden strikt Erklärungsbegriffe wie "input" oder "output" stehen.

Was, wenn entsprechend das Gehirn auch nicht mehr als "programmierbar" beschrieben würde? (Ich persönlich empfinde das als eine befremdliche und faktisch falsche Art und Weise finde, Neuroplastizität zu umschreiben.)

Ganz liebe Grüsse

Lili Gamba

Liebe Lili,

vielen Dank für deine kluge und zugleich anspruchsvolle Frage! Sie berührt einen zentralen Punkt im Umgang mit künstlicher Intelligenz: Wie wir darüber sprechen, prägt ganz wesentlich, wie wir sie verstehen. Ich versuche, die Antwort aus beiden Perspektiven zusammenzuführen – einer eher technischen und einer sprach- bzw. gesellschaftskritischen.

Was KI technisch „tatsächlich“ macht

Aus informatisch-mathematischer Sicht lässt sich KI (z. B. Sprachmodelle) stark vereinfacht so beschreiben:

  • Es handelt sich um stochastische Systeme (also probabilistische Modelle),
  • die sich in einem latenten Raum von mathematischen Repräsentationen bewegen,
  • basierend auf Einbettungen von Zeichenketten (Text wird in Zahlen übersetzt),
  • und daraus wahrscheinliche nächste Ausgaben (wieder Text) generieren.

Oder noch nüchterner gesagt:

KI berechnet, welche Zeichenfolge statistisch am besten auf eine andere folgt.

Diese Beschreibung macht deutlich:

Es gibt kein Verstehen, kein Bewusstsein, keine Absicht – nur Musterverarbeitung.

Warum wir trotzdem „vermenschlichen“

Begriffe wie „lernen“, „denken“ oder „halluzinieren“ sind anthropomorphe Metaphern. Sie sind aus zwei Gründen so verbreitet:

  • Anschaulichkeit:

Es ist für uns viel leichter, ein bekanntes menschliches Konzept zu nutzen („halluzinieren“), als abstrakte Prozesse wie „Fehler im Wahrscheinlichkeitsraum“ zu erklären.

  • Kommunikation:

Technische Begriffe wie „Parameteroptimierung im latenten Raum“ sind korrekt, aber schwer zugänglich.

Das Problem dabei:

Diese Sprache erzeugt schnell die Vorstellung, KI sei menschenähnlich, mit eigenen Gedanken oder Absichten.

Aber: Auch technische Sprache ist nicht neutral

Auch die scheinbar „objektive“ technische Beschreibung ist nicht frei von Metaphern. Als zwei Beispiele:

  • Der Begriff „Stochastik“ hat eine historische und kulturelle Herkunft (u. a. geprägt von Johann Bernoulli).
  • Der Begriff „Raum“ (wie in „latenter Raum“) ist selbst eine Metapher – wir stellen uns dabei etwas Räumliches vor, obwohl es sich um abstrakte mathematische Strukturen handelt.

Das bedeutet:

Wir können nicht nicht metaphorisch sprechen.

Jede Beschreibung – ob psychologisch oder technisch – ist geprägt von Sprache, Kultur und Denkmodellen.

Fazit: Ein Spannungsfeld ohne einfache Lösung

Die Antwort ist daher nicht eindeutig, sondern bewusst ambivalent:

  • Ja, Anthropomorphisierung ist problematisch, weil sie unser Verständnis verzerrt. Aber auch technische Sprache ist nicht neutral, sondern voller Metaphern.
  • Entscheidend ist daher bewusster Sprachgebrauch:
  • Welche Begriffe wir wählen, sollte davon abhängen, was wir erklären wollen – und wem.

Vielleicht lässt sich das so zusammenfassen:

Wir brauchen anschauliche Metaphern, aber wir sollten sie immer als Metaphern kenntlich machen.

Wenn dich das weiter interessiert, lohnt sich ein Blick in die Science and Technology Studies – dort wird genau untersucht, wie Sprache unser Verständnis von Technologie formt (siehe unten).

Herzliche Grüsse

Tobias /Hodel

Literatur:

Bender, Emily M., Timnit Gebru, Angelina McMillan-Major, and Shmargaret Shmitchell. 2021. “On the Dangers of Stochastic Parrots.” Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (New York, NY, USA), FAccT ’21, vol. 47 (March): 610–23. https://doi.org/10.1145/3442188.3445922.

Meyer, Roland. 2024. “It’s a Flat World. The Synthetic Realities of Sora.” Rrrreflect. Journal of Integrated Design Research; Special Issue 1, 151 KB, 4 pages. https://doi.org/10.57684/COS-1267.

Oberbichler, Sarah, and Cindarella Petz. 2025. Working Paper: Implementing Generative AI in the Historical Studies. Version 1.0. February 25. https://doi.org/10.5281/ZENODO.14924737.

bouquets/bouquet1.webp

Wunderbar! Ihre Antwort hat mir weitergeholfen. Vielen Dank für Ihre Arbeit!